GDC Vault - Interactive Music 2.0: Merging the Game World with Your Score
RememberMeのインタラクティブミュージックもやっていた人のセッションだった。今回のGDCで一番のセッションだった。RTGIM=Real Time Generative Interactive Music。Wwiseの極地。
曲を1音(C)のベースで作る。MIDIベース。
https://gyazo.com/f9091d16467edb25eaa276600c914119
https://gyazo.com/73ca72089ddcde86ea8ded1b25e8c0e5
VRで音楽を自然に聞かせるには、自然音から初めて、そこから徐々に繋げていくようにする。
つまり、最初はダイジェティックに聞こえるけど、気づいたらノンダイジェティックになっている。
テンポや音自体をパラメータによって少しずつ変える。MIDIだからこそできるインタラクティブ。
しかし、それだと本当にベース1音のテンポと表現が変わるだけで、「音楽的」ではない。
と思いきや、その上に曲も載せる。シーンに合わせてレコーディングしたので、テンポも一定じゃない。
「だから俺はいちいちカスタムキューを置いて、そこにベースがシンクロするようにした。もう二度とやりたくない」
https://gyazo.com/9881d1eac00eb37f70473268e02f72c9
しかもなぜか秒針にシンクロしてる。
歌詞を変える試みも。音楽に同期しつつ、3Dのemitterから鳴らす。
https://gyazo.com/3cc5d5c68b6ab159e15dab89976217d8
2Dと3Dをシームレスに変えるのも面白かった。
Auro3Dを使っていた。Musicもそれでやってみたしできるけど、結局やらなかったらしい。